道德感
❦
假设某种疾病、某个怪物、某场战争,或别的什么东西,正在杀害人们。再假设,你手头的资源只够你在以下两个选项中实施一个:
-
确定无疑地救下
400条生命。 -
以
90%的概率救下500条生命;以10%的概率一条也救不下。
大多数人会选择选项 1。而我觉得,这是愚蠢的;因为如果你把 500 条生命乘以 90% 的概率,得到的期望值就是 450 条生命,超过了选项 1 的 400 条生命。(被拯救的生命在边际效用上不会递减,因此这种计算是恰当的。)
「什么!」你愤怒地喊道,「你怎么能拿人命去赌博?在利害如此重大的时候,你怎么还能想着数字?如果那 10% 的概率真的发生了,所有人都死了怎么办?你那该死的逻辑又有什么用!你这是顺着理性一路冲下悬崖!」
啊,不过有意思的地方就在这里。如果你这样来表述选项:
-
确定无疑地死
100个人。 -
以
90%的概率无人死亡;以10%的概率死500个人。
那么多数人会选择选项 2。尽管这其实是同一场赌博。 你看,正如确定无疑地救下 400 条生命,似乎会让人感觉比一场不确定的收益舒服得多一样,确定无疑的损失,也会比不确定的损失让人感觉更糟。
你也完全可以对第二种表述来一番慷慨陈词:「明明有这么大的机会能把那 100 个人救下来,你怎么能判他们必死无疑?我们大家一起承担风险!就算救下所有人的概率只有 75%,这也依然值得——只要还有机会——要么所有人都活下来,要么谁也别活!」
你知道吗?这跟你的感觉无关。人的一生,连同其中几十年间积累起来的所有欢乐与痛苦,其价值远远超过你大脑对某项计划所产生的那点舒适或不适之感。计算期望效用这件事,对你来说是不是显得太冷血了?那种感觉,在生命攸关的时候,连天平上的一根羽毛都算不上。别废话,直接去乘。
一个古戈尔(googol)是 10^100——也就是一个 1 后面跟着 100 个 0。而一个 googolplex 则是更大到难以想象的数字——它是 10^googol,也就是一个 1 后面跟着一个 googol 个 0。现在,从某种微不足道的不便里选一个,比如打嗝;再从某种毫不微不足道的不幸里选一个,比如被施虐成性的变异鲨鱼慢慢撕成碎片。如果我们被迫在「阻止 googolplex 个人打嗝」和「阻止一个人遭遇鲨鱼袭击」之间做选择,那我们该选哪一个?如果你给打嗝赋予了任何负价值,那么,为了避免在决策理论上自相矛盾,就必然存在某个打嗝的数量,会累积到足以与一次鲨鱼袭击的负价值匹敌。对于任何一种特定而有限的恶,都必然存在某个数量的打嗝,会比它还要更糟。
像这样的道德困境,并不是分析哲学家为了在晚宴上自娱自乐而发明出来的观念性血腥运动。它们是我们每天实际都会遇到的那类情境的蒸馏版本。我是该花 50 美元去买一款主机游戏,还是把这笔钱全捐给慈善机构?我是该去组织一场筹款 700,000 美元的募款活动,用来支付一次骨髓移植,还是该把同样的钱花在蚊帐上,从而避免大约 200 名儿童死于疟疾?
然而,有许多人会把目光从现实世界中层出不穷的、令人不快的道德权衡上移开——也有许多人,会以这种回避为荣。研究表明,人们会把诸如人命这样的「神圣价值」,与诸如金钱这样的「非神圣价值」区分开来。当你试图拿一个神圣价值去和一个非神圣价值做权衡时,受试者会表现出强烈愤慨。(有时他们甚至想惩罚那个提出这种建议的人。)
关于这一点,我最喜欢的一则轶事来自一组研究人员:他们评估了某个项目的有效性,计算出每救一条命所需的成本,并因此向政府建议实施该项目,因为它在成本效益上是划算的。那个政府机构拒绝了这份报告,因为他们说,你不能给人命标上美元价格。而在拒绝报告之后,这个机构决定不实施该项措施。
拿神圣价值去和非神圣价值做权衡,这件事感觉真的很糟。仅仅去相乘效用,显得太冷血了——简直就是顺着理性一路冲下悬崖……
但利他主义并不是你在做利他之事时,从中获得的那种温暖模糊的感觉。如果你这么做是为了自己的精神收益,那那不过只是自私而已。首要之事是帮助别人,不管手段为何。所以,别废话,直接去乘!
如果在你看来,这种最大化里带着某种凌厉,像法律的裸剑,或像太阳的炽焰——如果在你看来,这种理性的核心处,燃着一簇冰冷的小火——
嗯,另一种做法在你的内心里也许会感觉更好一些。但它不会奏效。
我还想对你说的是:如果你把自己本来可以拥有的那些精神满足感的遗憾放到一边——如果你全心全意地追随这条道路,而不想着自己是否被亏待了——如果你毫无保留地把自己交给理性,你就会发现,理性也会回馈给你某些东西。
但那一部分,只有在你不四处对自己说「如果我能少讲一点理性,我的内心会感觉更好」时,才会成立。你难道应该因为自己有机会真正帮助别人而感到难过吗?如果你把自己的天赋视为负担,你就不可能实现你全部的潜能。